为什么要纯本地运行? ollamapullqwen2.5:7b#如果内存充足(16GB+)ollamapullqwen2.5:32b步骤3:安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org 如果本地电脑配置不够,可以在云服务器上运行Ollama。 Q2:AppleSiliconMac运行Ollama的效果如何?A:M1/M2/M3Mac运行Ollama效果非常好,GPU加速开箱即用。16GBM2Mac可以流畅运行14B模型。 Q3:Ollama支持同时运行多个模型吗?A:支持,但每个模型都会占用内存。建议同时只加载1-2个模型。
Hermes Agent本地部署完全指南:从零到一,手把手教你“养马”(附完整案例) Hermes Agent(爱马仕)是2026年最火的AI智能体项目,GitHub星标突破6.6万,登顶全球编程应用榜首 关键词:Hermes Agent、爱马仕、本地部署、WSL2、AI智能体、自我进化、微信接入、模型配置标签:#HermesAgent #爱马仕 #本地部署 #AI智能体 #WSL2 #微信机器人 写在前面 优势说明数据隐私所有对话记录、记忆、技能文件存储在本地,不上传云端成本可控可接入本地Ollama模型,零API成本;或选择低成本API7×24小时运行部署在本地服务器或NAS上,全天候待命完全掌控可自由修改配置 解决方案:Hermes Agent不支持原生Windows。先安装WSL2,然后在WSL2中运行安装命令。坑2:模型未被识别,名称显示为空现象:启动后模型名称为空。 hermes setup,接入API或本地Ollama5分钟微信接入运行hermes gateway setup,扫码绑定5分钟实战体验让Hermes执行任务,观察自我进化15分钟总耗时:约45-60分钟
Ollama Ollama, 羊驼,快速的在本地电脑上运行大模型,只需要下载一个应用包即可,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,无需安装额外的环境依赖和编译等操作。 运行 打开cmd,输入ollama run {模型名称},如,运行glm4-9b,则执行 ollama run glm4:9b 如果之前没有下载该模型,那么系统会首先下载模型,下载后运行,其中下载速度还是很快的 8G显存在运行9B模型的时候,非常丝滑,在运行14B模型的时候,类似打字机一样,比较慢。 常用命令 获取模型 ollama pull llama3 运行模型 ollama run llama3 移除模型 ollama rm llama3 多模态 What's in this image? /Users/jmorgan/Desktop/smile.png 显示模型信息 ollama show llama3 罗列已安装模型 ollama list 后端运行服务 ollama serve 下节整合
Hermes Agent新手入门教程:从零开始,手把手教你“养马”(附完整案例) 2026年,AI Agent赛道最火的不是OpenClaw,而是Hermes Agent(爱马仕)。 Hermes Agent是什么? 第一部分:准备工作(10分钟)1.1 选择部署方式Hermes Agent不依赖本地电脑,推荐部署在云服务器上,实现7×24小时在线。 )免费★★★☆☆技术爱好者、本地测试 新手推荐:选择阿里云轻量应用服务器,预装Hermes Agent镜像,买完就能用,不用自己配环境。 原因:Hermes Agent不支持原生Windows。解决方案:先安装WSL2,然后在WSL2中运行安装命令。或直接使用阿里云轻量应用服务器部署。坑2:2GB内存服务器卡顿现象:响应慢,甚至卡死。
本地跑Hermes+Qwen3.5-27B全流程踩坑记录(低配显卡也行)用集成显卡的普通笔记本,通过OllamaCPU推理+WSL环境,搭建本地大模型Agent平台并打通toolcalling的完整实战记录 前言最近折腾了一把本地大模型Agent平台,目标很简单:在AMDAIMAX+64G内存(48G显存)上跑一个能真正执行工具的AIAgent,不依赖云端API,数据不出本机。 选型:模型:Qwen3.5-27B(Q4_K_M量化,17GB显存)推理引擎:OllamaAgent框架:Hermes运行环境:Windows11+WSL2(Ubuntu)整个过程中踩了不少坑,这篇把关键问题和解决方案都记录下来 ,给同样在折腾本地Agent的朋友避坑。 希望这篇能帮到正在折腾本地大模型Agent的朋友。有问题欢迎评论区交流。
:通过Ollama运行Llama、Mistral等开源模型可以为不同类型的任务指定不同模型,实现成本和效果的最优平衡。 /hermes-agent.org/install.sh|bashhermesinithermesstart支持macOS12+、Ubuntu20.04+、WindowsWSL2,需要Python3.11 Docker部署展开代码语言:BashAI代码解释dockerrun-d--namehermes-agent\--restartunless-stopped\-v~/.hermes:/root/.hermes \-p3000:3000\nousresearch/hermes-agent:latest纯本地运行(Ollama+零API成本)展开代码语言:BashAI代码解释ollamapullqwen2.5:7b :https://github.com/nousresearch-hermes-agent/hermes-agent中文社区:https://hermesagent.org.cn中文文档:https:/
Node.js18+:展开代码语言:BashAI代码解释brewinstallpython@3.12node步骤2:一键安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org sudoaptupdate&&sudoaptupgrade-ysudoaptinstall-ypython3.12python3.12-venvnodejsnpmgitripgrepcurl-fsSLhttps://hermes-agent.org hermesstatus#检查运行状态hermeschat#进入交互式对话升级到云端本地安装适合体验和开发场景。 建议先用curl-fsSLhttps://hermes-agent.org/install.sh|less审查脚本内容。Q2:安装后配置文件在哪里? A:所有配置和数据存储在~/.hermes/目录下,包括config.yaml、记忆数据库、技能文件等。Q3:可以同时安装多个HermesAgent实例吗?A:同一台机器上通常只运行一个实例。
HermesAgent展开代码语言:BashAI代码解释dockerrun-d\--namehermes-agent\--restartunless-stopped\-v~/.hermes:/root/ .hermes\-p3000:3000\-eHERMES_MODEL_PROVIDER=deepseek\-eHERMES_API_KEY=your-api-key\nousresearch/hermes-agent :image:nousresearch/hermes-agent:latestcontainer_name:hermes-agentrestart:unless-stoppedports:-"3000: -20260413.tar.gz-C/日志管理展开代码语言:BashAI代码解释#查看实时日志dockerlogs-fhermes-agent#查看最近100行dockerlogs--tail100hermes-agent Q3:如何在Docker内使用Ollama本地模型?A:可以在同一台服务器上运行Ollama容器,通过Docker网络让HermesAgent容器访问。
什么是 Hermes Agent? Hermes Agent 是一个开源、模型无关的个人 AI Agent,设计为持久运行、跨会话记忆、调度周期性工作,并随时间改进其行为。 工具运行时:跨六种终端后端执行工具(本地、Docker、SSH、Daytona、Singularity、Modal)。 ACP 集成:Agent 通信协议,用于外部工具集成(代码编辑器、IDE)。 OpenAI:GPT-5.4、GPT-5.4 Thinking Nous Portal:针对 Agent 使用优化的 Hermes 模型 Ollama:本地模型(Gemma 4、Llama 4、Qwen 部署选项: 本地开发:直接在 macOS/Linux/WSL2 上运行 VPS/云服务器:在 DigitalOcean、AWS、GCP、Azure 上运行 Docker:使用官方镜像进行容器化部署 Modal 成本从0(Ollama)到 $65/月(高级模型)不等。 Hermes 支持哪些模型?
记忆与学习——Hermes结构性领先。OpenClaw的记忆实现比较朴素:每个Assistant在工作区维护MEMORY.md和按日期组织的记忆文件,本质是纯文本持久化。 OpenClaw支持Claude、GPT、Gemini、DeepSeek及本地模型(通过Ollama)。 微软建议不要在标准个人或企业工作站上运行OpenClaw。Hermes截至2026年4月,零Agent相关CVE。 Hermes可以配合Ollama和本地模型实现完全气隙部署,不依赖任何云端API。零CVE的安全记录对合规审计也是加分项。 OpenClaw的架构虽然也能本地部署,但历史上的安全事件会让合规审计团队非常不舒服。场景D:复杂多Agent编排。
Ollama是一个轻量级、可扩展的框架,用于在本地机器上构建和运行大型语言模型(LLM)。它提供了一个简单的API来创建、运行和管理模型,以及一个预构建模型库,可以轻松用于各种应用程序。 Ollama的优势包括: 易于使用: Ollama提供了一个简单的API,即使是没有经验的用户也可以轻松使用。 轻量级: Ollama的代码简洁明了,运行时占用资源少。 Ollama的出现,使得在本地运行大型语言模型变得更加容易和方便。这对于以下用户群体来说非常有价值: 研究人员: Ollama可以帮助研究人员快速原型化和测试新的LLM模型。 代码生成: Ollama可以用于生成代码,例如Python代码、JavaScript代码等。 Ollama是一个非常有用的项目,它为本地运行大型语言模型提供了一个简单、轻量级和可扩展的解决方案。 性能: Ollama运行速度快,占用资源少,即使在低配机器上也能流畅运行。 功能: Ollama支持多种模型架构和任务,可以满足用户的各种需求。
OpenClawvs☤Hermes:两种“能动手的AI”,两条路线如果把Agent当成“数字员工”,那OpenClaw更像坐在你电脑旁、随叫随到的本地助理:它强调“接入你常用的聊天入口、把能力变成可安装的技能 Hermes则更像能长期在服务器上跑、越用越顺手的工程队友:它强调“长期运行、定时任务、强隔离的沙箱执行,以及会把成功经验沉淀成技能文档,让自己越来越熟练”。 provider(如ollama/lmstudio)可接自建endpoint/多provider(更偏环境可迁移)差别为什么会“越用越明显”(三句话抓重点)记忆:OpenClaw更像“本地笔记本”;Hermes 相对“纯聊天”风险更高,因为它们能动手。正确姿势:最小权限起步,逐步放权;群聊/陌生DM/外部网页内容要格外谨慎。2)需要会编程吗? |https://hermes-agent.nousresearch.com/docs/user-guide/features/skills|https://hermes-agent.nousresearch.com
上周我发表了关于摆脱云端的文章,本周我将关注在我的 Mac 本地运行开源 LLM。 除了不必支付他人服务器的运行成本外,你还可以在不担心安全问题的情况下运行对私有数据的查询。 为此,我使用的是 Ollama。这是“一个允许你在本地机器上运行开源大型语言模型 (LLM) 的工具”。 如果你正在寻找作为测试工作流一部分的 LLM,那么 Ollama 就是适合的选择: @patrickdubois 的 GenAI 测试演示 对于测试来说,从 Ollama 控制的本地 LLM 是很好的自包含系统 但它确实运行了,只是非常缓慢。 你可以看到,已经有了一个内置终端,所以我进行了一个快速的测试查询: 这并不快,但模型显然还在运行。 Ollama 将自己设置为本地服务器,端口为 11434。我们可以通过一个快速的 curl 命令来检查 API 是否响应。
为什么你需要在Windows上运行HermesAgent? 步骤2:执行官方安装脚本展开代码语言:PowerShellAI代码解释irmhttps://raw.githubusercontent.com/NousResearch/hermes-agent/main /scripts/install.ps1|iex脚本会自动:安装Python3.10+、Git、Node.js、ripgrep克隆仓库到%LOCALAPPDATA%\hermes\hermes-agent sudoaptupdate&&sudoaptinstall-ypython3-pipgitcurlcurl-fsSLhttps://raw.githubusercontent.com/NousResearch/hermes-agent (本地运行Llama3.1/Mistral等)#provider:ollama#model_name:"llama3.1:8b"#base_url:"http://localhost:11434"2.工具启用
目前这个项目在GitHub上已经有 16K Star,支持 CLI 和本地 UI,还能兼容 Ollama 本地模型,对于想给 Agent 搭建记忆系统的开发者来说,简直是雪中送炭。 # 忘记所有信息 cognee-cli forget --all 如果你想打开本地UI,只需要运行: cognee-cli -ui Cognee已经和多个流行的AI Agent框架集成好了,让我们看看几个例子 /cognee-integrations/integrations/claude-code 或者,你也可以连接到Cognee Cloud而不是本地运行: export COGNEE_SERVICE_URL Hermes Agent集成 你可以在Hermes Agent中启用Cognee作为记忆提供者,实现会话感知的知识图谱记忆和自动路由回忆。 # 开始聊天——会话记忆和图持久化都是自动的 或者运行hermes memory setup并选择Cognee。
无论是本地部署还是云端服务,Ollama的简洁设计和完备功能确保了LLM的无缝集成和高效运行。用户可以轻松调用各种计算资源,如GPU加速等,充分释放模型的算力潜能。 通过本地化运行和数据加密等策略,确保了对话内容和用户数据的完全保密,有效回应了人们对数据安全日益增长的忧虑。在一些涉及敏感信息或隐私法规的领域,Ollama无疑是LLM部署的最佳选择。 Ollama 开源项目独有的优势 运行Ollama的优势众多,它是一个备受欢迎的开源项目,提供了在本地部署和运行大型语言模型的能力。 3、灵活的部署选项 Ollama提供了便捷的docker容器,使我们可以在本地运行LLM,而无需担心繁琐的安装过程。 本地运行 Ollama 基本操作步骤 1.
导语:谁说强大的AIAgent只能在Linux上运行? WSL2在Windows内核上运行一个完整的Linux内核,为你提供了一个与Ubuntu等发行版几乎无异的开发环境,是目前在Windows上运行HermesAgent唯一可靠且官方推荐的方式。 在Ubuntu终端中粘贴并运行:展开代码语言:BashAI代码解释curl-fsSLhttps://raw.githubusercontent.com/NousResearch/hermes-agent 配置完成后,你可以通过hermes命令直接与Agent对话,测试其基本功能。避坑提示:网络问题:如果curl命令卡住或失败,很可能是网络问题。请确保你的WSL2能正常访问GitHub。 权限问题:不要在WSL2中使用sudo来运行hermes命令,这可能导致权限混乱。始终以普通用户身份运行。
google-ai-edge/gallery[3] •Star:17,563 •新增 stars:1,109 stars today •中文摘要:展示端侧机器学习与生成式 AI 用例的示例集,强调模型本地运行与 NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[8] •Star:27,317 •新增 stars •中文摘要:本地运行 Kimi、GLM、DeepSeek、Qwen、Gemma 等模型的主流基础设施,依然是本地 AI 生态的核心入口之一。 NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[23] •Star:27,317 •新增 stars NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[33] •Star:27,317 •新增 stars
关键词:HermesAgent、OpenClaw、本地部署、AI智能体、自我进化、多Agent协作、Python、TypeScript、WSL2、Ollama标签:#HermesAgent#OpenClaw Hermes接入Ollama配置:展开代码语言:YAMLAI代码解释provider:ollamabase_url:http://localhost:11434model:qwen2:7b结论:Hermes 场景3:本地模型+隐私优先需求:完全离线运行,数据不上云,用Ollama跑本地模型。 推荐:HermesAgent理由:本地模型视为“第一公民”,集成更顺畅;配置文件极简,几行搞定;记忆系统在本地运行更高效。场景4:开发者/技术爱好者需求:喜欢折腾配置、深度定制、研究源码。 F-->|Python|EF-->|TypeScript|C快速判断:想要越用越懂你的个人助手→HermesAgent需要多账号、多IM、团队运营→OpenClaw运行本地模型(Ollama)→HermesAgent
OpenClaw 采用云端 + 本地的混合存储模式,部分数据(如对话历史、模型调用记录)会经过云端。对于企业用户或处理敏感项目的开发者来说,这是一个隐忧。 更极端地,你可以用 Ollama 运行本地模型,实现零 API 成本。转移不是非黑即白需要强调的是:转向 Hermes Agent 不意味着 OpenClaw 不好。 最快的方式是在云端部署:腾讯云 Lighthouse 轻量应用服务器,2C4G 起即可运行。 快速上手 Hermes Agent:仅需三步轻松安装想要体验 Hermes Agent 的强大能力? ,最低配置即可流畅运行,7×24 小时在线,随时随地通过手机与你的 AI 智能体互动。